"De grens tussen waar en onwaar bestaat niet meer": Sora 2, de app die gekke video's genereert met behulp van AI

Onthoud die naam, Sora 2. In slechts een paar dagen tijd is het in verschillende landen de populairste gratis app in de App Store van Apple geworden. Hoewel het momenteel alleen op uitnodiging beschikbaar is, is Sora 2 zo ongelooflijk populair!
Ter herinnering: Sora is OpenAI's videogeneratie-AI. Met andere woorden, van een tekst maak je een minifilmpje, een kort fragment. Bijvoorbeeld een cowboy die de split doet op twee galopperende paarden of een sprinter die het opneemt tegen een cheeta op de 100 meter.
Het principe is niet nieuw, maar met Sora 2 hebben we duidelijk een stap voorwaarts gezet... Ten eerste omdat het resultaat qua renderingrealisme absoluut ongelooflijk is. Filmpjes van één minuut, van fotorealistische kwaliteit, met supervloeiende overgangen van de ene scène naar de andere, consistente setelementen, respect voor de wetten van de zwaartekracht, schaduwen en ook geluid, wat overeenkomt met de content, bijvoorbeeld sport of journalistiek commentaar. De video's zijn uiterst geloofwaardig, alsof we naar een film of een reportage kijken.
Toen kwam OpenAI op het slimme idee om een sociale netwerkapplicatie te maken die een beetje de codes van TikTok overneemt. Met talloze mogelijkheden, zoals het delen van je creaties - ook op andere sociale netwerken - en het invoegen van jezelf (of anderen) in video's. Het resultaat is dat ze viraal gaan en iedereen meedoet.
Het probleem is natuurlijk dat er dingen misgaan wanneer je dit soort tools in handen van internetgebruikers legt. Deepfakes zijn niets nieuws, maar met Sora 2 worden ze volledig ondetecteerbaar en oncontroleerbaar: Einstein die MMA doet of Michael Jackson die kipnuggets steelt in een restaurant. Een van de populairste trends is het tot leven wekken van overleden personages, uiteraard allemaal zonder toestemming van de rechthebbenden.
Met Sora 2 kun je video's genereren van totale en opzettelijke desinformatie, zoals neptoespraken van politici. Internetgebruikers die Sora 2 hebben gebruikt om hypergewelddadige maar nepvideo's te genereren van bijvoorbeeld aanslagen, rampen en paniekscènes tijdens een massaschietpartij, scènes die overduidelijk nooit hebben bestaan...
Er is geen respect voor auteursrechten: men kan de afbeelding van een personage of fictief karakter kopiëren: SpongeBob in een nazi-uniform bijvoorbeeld, of Mario of Pikachu die zonder enige toestemming worden gebruikt en gekopieerd.
De grens tussen waarheid en onwaarheid bestaat niet meer. Alles wat je op sociale media ziet, kan worden aangevochten.
En er zijn niet genoeg waarborgen om dit te bestrijden. Door Sora gegenereerde video's worden niet als zodanig gelabeld. Ze kunnen worden gedetecteerd door de kenmerken van de video te analyseren; er is een soort watermerk, maar dat is niet zichtbaar met het blote oog. En gezien de snelheid waarmee we een video op sociale media bekijken, zal niemand hier aandacht aan besteden.
In theorie is het maken van gewelddadige of pornografische content verboden, maar door het subtiel te 'prompten' bereik je altijd je doelen (vanuit dat oogpunt kan AI nog wel het een en ander leren van mensen...). Dit alles is des te verrassender omdat de eerste versie van Sora zelf hypergeblokkeerd, zelfs gecensureerd of gesaneerd was... We gaan van het ene uiterste naar het andere!
Omdat Open AI in een race om snelheid en populariteit zit met Google en zijn Veo3, Runway of zelfs Grok . We zitten in een absolute sprint en vanuit dit oogpunt neemt Open AI een van de grote mantra's van Silicon Valley over: "snel handelen, later repareren", snel handelen om gebruikers te winnen, en fouten later herstellen...
RMC